Revisão de Álgebra Matricial
Definição e propriedades básicas
- Uma matriz é um conjunto de números ou variáveis dispostos em linhas e colunas.
- Uma matriz \(\mathbf{A}\) de \(n\) linhas e \(p\) colunas (dimensão \(n \times p\)) pode ser representada, genericamente, por:
\[{\mathbf A} = \left[ \begin{array}{cccc} a_{11} & a_{12} & \cdots & a_{1p} \\ a_{21} & a_{22} & \cdots & a_{2p} \\ \vdots & \vdots & \ddots & \vdots \\
a_{n1} & a_{n2} & \cdots & a_{np} \end{array} \right]\]
- A matriz \(\mathbf{A}\) pode ser denotada ainda por \(\mathbf{A} = \{a_{ij}\}\), onde o primeiro índice indica linha, o segundo coluna e \(a_{ij}\) é o termo geral da matriz.
Definição e propriedades básicas
- Um vetor \(\mathbf{x}\), de dimensão \(n\), é representado, genericamente, por:
\[\mathbf{x} = \left[ \begin{array}{c} x_1 \\ x_2 \\ \vdots \\ x_n \end{array} \right] \]
- Numa análise multivariada com \(n\) indivíduos e \(p\) variáveis, as linhas da matriz de dados (observações dos indivíduos) podem ser consideradas \(n\) vetores de dimensão \(p\): \(\mathbf{x}_i^t = (x_{i1}, x_{i2}, \cdots, x_{ip}), \,\,\,\,\, i = 1, 2, \cdots, n\);
Definição e propriedades básicas
- As colunas da matriz de dados (observações referentes à variáveis) podem ser consideradas \(p\) vetores de dimensão \(n\):
\[\mathbf{x}_j^t = (x_{1j}, x_{2j}, \cdots, x_{nj}), \,\,\,\,\, j = 1, 2, \cdots, p\]
- A multiplicação de um vetor \(\mathbf{x} = (x_1, x_2 , \cdots, x_p)^t\) por um escalar real \(c\) resulta em um vetor \(\mathbf{y} = c \mathbf{x} = (cx_1 , cx_2 , \cdots, cx_p)^t\), de igual dimensão em relação ao vetor original;
- Geometricamente, a multiplicação de um vetor por um escalar pode mudar seu tamanho e sentido, mas não sua direção.
Definição e propriedades básicas
- A soma de dois vetores \(\mathbf{x}\) e \(\mathbf{y}\), de iguais dimensões, resulta em um terceiro vetor dado por:
\[\mathbf{z} = \mathbf{x} + \mathbf{y} = (x_1 + y_1, x_2 + y_2, \cdots, x_p + y_p)^t\]
- A diferença de dois vetores \(\mathbf{x}\) e \(\mathbf{y}\), de iguais dimensões, resulta em um terceiro vetor dado por:
\[\mathbf{w} = \mathbf{x} - \mathbf{y} = (x_1 - y_1, x_2 - y_2, \cdots, x_p - y_p)^t\]
Definição e propriedades básicas
- O produto interno de dois vetores \(\mathbf{x}\) e \(\mathbf{y}\) é definido por:
\[\mathbf{v} = \mathbf{x}^t\mathbf{y} = \displaystyle{\sum_{i=1}^{p}} x_iy_i = x_1 y_1 + x_2 y_2 + \cdots + x_p y_p\]
- O tamanho do vetor \(\mathbf{x} = (x_1, x_2, \cdots, x_p)^t\) é definido pela distância do ponto \(p\)-dimensional, determinado por suas coordenadas, à origem:
\[L_x = \sqrt{\mathbf{x}^t\mathbf{x}} = \sqrt{x_1^2 + x_2^2 + \cdots + x_p^2}\]
Definição e propriedades básicas
- O cosseno do ângulo \(\theta\) entre os vetores \(\mathbf{x}\) e \(\mathbf{y}\) definidos em \(\mathbb{R}^p\) é dado por:
\[\cos({\theta}) = \dfrac{\mathbf{x}^t\mathbf{y}}{\sqrt{\mathbf{x}^t\mathbf{x}} \sqrt{\mathbf{y}^t\mathbf{y}}}\]
- Dois vetores \(\mathbf{x}\) e \(\mathbf{y}\) são entre si se o ângulo \(\theta\) entre eles é \(90^o\), de tal forma que \(\cos(\theta) = 0\), ou, de forma equivalente, \(\mathbf{x}^t\mathbf{y} = 0\).
- A normalização de um vetor \(\mathbf{x}\) corresponde à divisão de \(\mathbf{x}\) por \(L_x\), de tal forma que o vetor resultante tenha comprimento unitário:
\[\mathbf{x}^* = \dfrac{\mathbf{x}}{L_x}\]
Definição e propriedades básicas
- A projeção de um vetor \(\mathbf{x}\) em um vetor \(\mathbf{y}\) é um novo vetor, com coordenadas:
\[\text{Projeção de } \mathbf{x} \text{ em } \mathbf{y} = \dfrac{\mathbf{x}^t\mathbf{y}}{\mathbf{y}^t\mathbf{y}} \mathbf{y}\]
- O comprimento da projeção de \(\mathbf{x}\) em \(\mathbf{y}\) é dado por:
\[\text{Tamanho da projeção de } \mathbf{x} \text{ em } \mathbf{y} = \dfrac{|\mathbf{x}^t\mathbf{y}|}{L_y} = L_x \cos(\theta)\]
Definição e propriedades básicas
- Igualdade de matrizes: Dizemos que duas matrizes \(\mathbf{A}\) e \(\mathbf{B}\) são iguais se elas tem iguais dimensões e \(\{a_{ij}\} = \{b_{ij}\}\) para todo \(i\) e para todo \(j\).
- Matriz transposta: A transposta de uma matriz \(\mathbf{A}_{n \times p}\) é a matriz \(\mathbf{A}^t_{p \times n}\) tal que \(\{a_{ij}\} = \{a_{ji}\}\) para todo \(i\) e para todo \(j\):
\[\mathbf{A}^t = \left[ \begin{array}{cccc} a_{11} & a_{21} & \cdots & a_{n1} \\ a_{12} & a_{22} & \cdots & a_{n2} \\ \vdots & \vdots & \ddots & \vdots \\
a_{1p} & a_{2p} & \cdots & a_{np} \end{array} \right]\]
Definição e propriedades básicas
- Matriz simétrica: Dizemos que uma matriz \(\mathbf{A}_{p \times p}\) é simétrica se \(\{a_{ij}\} = \{a_{ji}\}\) para todo \(i\) e para todo \(j\), ou seja, \(\mathbf{A}^t = \mathbf{A}\).
- Diagonal de uma matriz: A diagonal de uma matriz quadrada \(\mathbf{A}_{p \times p}\) corresponde ao conjunto de elementos \(a_{11}, a_{22}, \cdots, a_{pp}\).
- Matriz diagonal: Dizemos que a matriz quadrada \(\mathbf{A}_{p \times p}\) é diagonal se todos os elementos fora da diagonal são iguais a zero:
\[\mathbf{A} = \left[ \begin{array}{cccc} a_{11} & 0 & \cdots & 0 \\ 0 & a_{22} & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\
0 & 0 & \cdots & a_{pp} \end{array} \right]\]
Definição e propriedades básicas
- Matriz identidade: Dizemos que a matriz quadrada \(\mathbf{I}_{p\times p}\) é uma matriz identidade se ela é uma matriz diagonal com todos os elementos da diagonal iguais a 1:
\[\mathbf{I} = \left[ \begin{array}{cccc} 1 & 0 & \cdots & 0 \\ 0 & 1 & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\
0 & 0 & \cdots & 1 \end{array} \right]\]
Definição e propriedades básicas
- Matriz triangular superior: Dizemos que a matriz quadrada \(\mathbf{A}_{p \times p}\) é uma matriz triangular superior se todos os elementos abaixo da diagonal são iguais a zero:
\[\mathbf{A} = \left[ \begin{array}{cccc} a_{11} & a_{12} & \cdots & a_{1p} \\ 0 & a_{22} & \cdots & a_{2p} \\ \vdots & \vdots & \ddots & \vdots \\
0 & 0 & \cdots & a_{pp} \end{array} \right]\]
- Uma matriz triangular inferior é definida de forma semelhante.
Operações envolvendo matrizes
- A soma de duas matrizes \(\mathbf{A}_{n \times p}\) e \(\mathbf{B}_{n \times p}\) de iguais dimensões é a matriz resultante das somas dos elementos nas posições correspondentes:
\[\mathbf{A} + \mathbf{B} = \left[ \begin{array}{cccc} a_{11} + b_{11} & a_{12} + b_{12} & \cdots & a_{1p} + b_{1p}\\ a_{21} + b_{21}& a_{22} + b_{22}& \cdots & a_{2p} + b_{2p} \\ \vdots & \vdots & \ddots & \vdots \\
a_{n1} + b_{n1} & a_{n2} + b_{n2} & \cdots & a_{np} + b_{np} \end{array} \right]\]
Operações envolvendo matrizes
- A diferença de duas matrizes \(\mathbf{A}_{n \times p}\) e \(\mathbf{B}_{n \times p}\) de iguais dimensões é a matriz resultante das diferenças dos elementos nas posições correspondentes:
\[\mathbf{A} - \mathbf{B} = \left[ \begin{array}{cccc} a_{11} - b_{11} & a_{12} - b_{12} & \cdots & a_{1p} - b_{1p}\\ a_{21} - b_{21}& a_{22} - b_{22}& \cdots & a_{2p} - b_{2p} \\ \vdots & \vdots & \ddots & \vdots \\ a_{n1} - b_{n1} & a_{n2} - b_{n2} & \cdots & a_{np} - b_{np} \end{array} \right]\]
Operações envolvendo matrizes
- Sejam \(\mathbf{A}_{n \times k}\) e \(\mathbf{B}_{k \times p}\) duas matrizes, tais que o número de linhas da segunda é igual ao número de colunas da primeira. O produto \(\mathbf{AB}\) é definido por:
\[\mathbf{A} \mathbf{B} = \left[ \begin{array}{cccc} \sum_{r = 1}^k a_{1r}. b_{r1} & \sum_{r = 1}^k a_{1r}. b_{r2} & \cdots & \sum_{r = 1}^k a_{1r}. b_{rp}\\ \sum_{r = 1}^k a_{2r}. b_{r1} & \sum_{r = 1}^k a_{2r}. b_{r2} & \cdots & \sum_{r = 1}^k a_{2r}. b_{rp} \\ \vdots & \vdots & \ddots & \vdots \\
\sum_{r = 1}^k a_{nr}. b_{r1} & \sum_{r = 1}^k a_{nr}. b_{r2} & \cdots & \sum_{r = 1}^k a_{nr}. b_{rp} \end{array} \right]\]
- Dizemos que uma matriz quadrada \(\mathbf{Q}\) é ortogonal se \(\mathbf{QQ}^t = \mathbf{Q}^t \mathbf{Q} = \mathbf{I}\).
Operações envolvendo matrizes
- Sejam \(\mathbf{A}_{n \times p}\) e \(c\) uma constante. O produto \(c \mathbf{A}\) resulta no produto de cada elemento de \(\mathbf{A}\) por \(c\):
\[c\mathbf{A} = \left[ \begin{array}{cccc} ca_{11} & ca_{12} & \cdots & ca_{1p} \\ ca_{21} & ca_{22} & \cdots & ca_{2p} \\ \vdots & \vdots & \ddots & \vdots \\
ca_{n1} & ca_{n2} & \cdots & ca_{np} \end{array} \right]\]
Operações envolvendo matrizes
Operações envolvendo matrizes
Operações envolvendo matrizes
- O traço de uma matriz de uma matriz \(\mathbf{A}_{p \times p}\), denotado por \(\text{tr}(\mathbf{A})\), corresponde à soma dos elementos da diagonal de \(\mathbf{A}\):
\[\text{tr}(\mathbf{A}) = \displaystyle{\sum_{i=1}^{p}a_{ii}}\]
Matriz inversa
- Matriz inversa: Considere uma matriz \(\mathbf{A}_{p \times p}\). Caso exista uma matriz \(\mathbf{B}_{p \times p}\) tal que
\[\mathbf{AB} = \mathbf{BA} = \mathbf{I}\]
dizemos que \(\mathbf{B}\) é a matriz inversa de \(\mathbf{A}\), sendo usualmente denotada por \(\mathbf{A}^{-1}\).
- Quando uma matriz possui uma matriz inversa, dizemos que ela é não-singular. Caso contrário, ela é classificada como singular.
Matriz inversa
- A condição fundamental para que uma matriz tenha inversa é que suas colunas sejam linearmente independentes (matriz de \(rank\) completo).
- O \(rank\) de uma matriz \(\mathbf{A}_{n \times p}\) , denotado por \(rank(\mathbf{A})\), é definido como o número de linhas (ou colunas) linearmente independentes de \(\mathbf{A}\).
- Dizemos que a matriz quadrada \(\mathbf{A}_{p \times p}\) tem \(rank\) completo se \(rank(\mathbf{A}) = p\), configurando uma matriz não singular.
- Para matrizes de \(rank\) incompleto ou não-quadradas, define-se a inversa generalizada de \(\mathbf{A}\) como a matriz \(\mathbf{A}^-\) que satisfaz \(\mathbf{A} \mathbf{A}^- \mathbf{A} = \mathbf{A}\).
Matriz inversa
- A inversa de uma matriz diagonal é dada pela matriz diagonal composta pelos inversos dos elementos da matriz original:
\[\mathbf{A} = \left[ \begin{array}{cccc} a_{11} & 0 & \cdots & 0 \\ 0 & a_{22} & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\
0 & 0 & \cdots & a_{pp} \end{array} \right]; \,\,\,\,\,\,\,\,\, \mathbf{A}^{-1} = \left[ \begin{array}{cccc} \frac{1}{a_{11}} & 0 & \cdots & 0 \\ 0 & \frac{1}{a_{22}} & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & \frac{1}{a_{pp}} \end{array} \right]\]
Matriz inversa
- \(\mathbf{A}\) e \(\mathbf{B}\) não singulares \((p \times p)\), \((\mathbf{AB})^{-1} = \mathbf{B}^{-1} \mathbf{A}^{-1}\);
- Para \(c\) uma constante real diferente de zero, \((c \mathbf{B})^{-1} = c^{-1}(\mathbf{A})^{-1}\);
- \((\mathbf{A}^t)^{-1} = (\mathbf{A}^{-1})^t\);
- Se \(rank(\mathbf{A}) = p\) então \(\mathbf{A}^{-1}\) existe;
- Se \(\mathbf{A}\) é ortogonal, então \(\mathbf{A}^{-1}\) existe, além do que \(\mathbf{A}^{-1} = \mathbf{A}^t\);
- Se \(\mathbf{B}\) é não singular, \(\mathbf{AB} = \mathbf{CB}\) implica \(\mathbf{A} = \mathbf{C}\).
Determinante
O determinante de uma matriz \(\mathbf{A}_{p \times p}\) , denotado por \(\det(\mathbf{A})\) ou \(|\mathbf{A}|\), é definido como:
\[\det(\mathbf{A}) = \begin{cases} a_{11} & \text{ se } p = 1 \\ \sum \limits_{j=1}^p a_{ij} |\mathbf{A}_{ij}| (-1)^{i+j} & \text{ se } p > 1\end{cases}\]
sendo \(\mathbf{A}_{ij}\) a matriz \((p - 1) \times (p - 1)\) resultante da exclusão da \(i\)-ésima linha e \(j\)-ésima coluna de \(\mathbf{A}\).
Determinante
Autovalores e autovetores
- Seja \(\mathbf{A}\) uma matriz quadrada e \(\mathbf{I}\) a matriz identidade, ambas \(p \times p\). Os escalares \(\lambda_1, \lambda_2, \cdots, \lambda_p\) que são a solução da equação polinomial \(|\mathbf{A} - \lambda \mathbf{I}| = 0\) são chamados autovalores (ou valores característicos) de \(\mathbf{A}\).
- A equação \(|\mathbf{A} - \lambda \mathbf{I}| = 0\) (como função de \(\lambda\)) é chamada equação característica.
- Seja \(\mathbf{A}\) uma matriz quadrada \(p \times p\) e \(\lambda\) um autovalor de \(\mathbf{A}\). Então, o vetor \(\mathbf{x}\) \((p \times 1)\), não nulo, que satisfaz:
\[\mathbf{Ax} = \lambda \mathbf{x}\]
é chamado autovetor (ou vetor característico) de \(\mathbf{A}\) associado ao autovalor \(\lambda\).
Autovalores e autovetores
- Para qualquer matriz simétrica \(\mathbf{A}\) com autovalores \(\lambda_1, \lambda_2, \cdots, \lambda_p\), valem:
\[\text{tr}(\mathbf{A}) = \displaystyle{\sum_{i=1}^{p}\lambda_{i}} \hspace{1cm} \text{e} \hspace{1cm} \left|\mathbf{A} \right| = \displaystyle{\prod_{i=1}^{p}\lambda_{i}}\]
- Se todos os autovalores da matriz \(\mathbf{A}\) são positivos maiores que zero, então a matriz \(\mathbf{A}\) é positiva definida;
- Se os autovalores da matriz \(\mathbf{A}\) são positivos ou iguais a zero, então a matriz \(\mathbf{A}\) é positiva semidefinida. Neste caso, o número de autovalores positivos será igual ao posto da matriz \(\mathbf{A}\)
- Os autovetores de uma matriz \(\mathbf{A}\) simétrica de dimensão \(p \times p\) são ortogonais.
Teorema da decomposição espectral
- Como resultado da ortogonalidade dos autovetores de \(\mathbf{A}\) tem-se o Teorema da Decomposição Espectral.
- Toda matriz simétrica \(\mathbf{A}\) de ordem \(p \times p\) pode ser decomposta em:
\[\mathbf{A} = \mathbf{C} \mathbf{\Lambda} \mathbf{C}^t = \displaystyle{\sum_{i = 1}^p \lambda_i {\mathbf{e}_i \mathbf{e}_i^t}}\]
Teorema da decomposição espectral
em que \(\mathbf{\Lambda}\) é a matriz diagonal dos autovalores:
\[\mathbf{\Lambda} = \left[ \begin{array}{cccc} \lambda_1 & 0 & \cdots & 0 \\ 0 & \lambda_2 & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & \lambda_p \end{array} \right]\]
e \(\mathbf{C}\) é a matriz ortogonal com os autovetores normalizados de \(\mathbf{A}\) nas colunas:
\[\mathbf{C} = \left[\begin{array}{rrrr} \mathbf{e}_1 & \mathbf{e}_2 & \cdots & \mathbf{e}_p \end{array} \right]\]